אינפורמציה:
- ככל שקיבלנו מידע על משהו יותר נדיר (עם הסתברות נמוכה) הוא יותר אינפורמטיבי
- מתמטית:
אנטרופיה:
- תוחלת ההפתעה במערכת מסוימת
- ככל שההתפלגות מפוזרת בצורה שווה יותר, האנטרופיה גדולה יותר
- מתמטית:
אנטרופיה צולבת ׁ(CE):
- תוחלת הצלבה בין שתי התפלגויות: P - ההתפלגות שקרתה בעולם, Q - ההתפלגות בה אנחנו מאמינים
- ככל שהאירוע שהסבירות של האירועים שאני מאמין שהם הכי נדירים היא יותר גדולה, האנטרופיה הצולבת תהיה גדולה יותר.
- במקרה שבו יש משתנה בהתפלגות שהאמונה שלי בו היא 0, אך בפועל הוא גדול מ-0, ההפתעה שלי (CE), תהיה אינסוף
- מתמטית:
דוגמא:
נניח מרוץ סוסים בעל שלושה סוסים. על פי האמונה שלי (Q): סוס 1 ינצח ב 30% מהפעמים, סוס 2 ינצח ב 60% מהמקרים, וסוס שלוש ינצח ב 10% מהמקרים.
בפועל (P): לסוס 1 יש 10% לנצח, לסוס 2 יש 10% לנצח, ולסוס שלוש יש 80% לנצח.
נחשב את האנטרופיה הצולבת:
מדידת מרחק בין התפלגויות
- נרצה למדוד את המרחק כשנרצה לדעת כמה אני אופתע אקסטר מאירוע מהתפלגות Q, מכיוון שאני חוזה אותו באמצעות Q ולא באמצעות P
- מתמטית:
רגרסיה לוגיסטית:
-
מתאימה למשימות סיווג, אך בשונה מ - הפרספטרון הבינארי , היא מאפשרת ניבוי הסתברותי
-
הפלט עבור הרגרסיה הלוגיסטית הוא סיגמואידלי:
-
נרצה לשים לב כי החזקה על e היא מינוס z ולא z!
-
פונקצית השגיאה שלה היא האנטרופיה הצולבת
-
כדי למזער את השגיאה נשתמש ב ירידה במורד הגרדיאנט.
-
כלל הגזירה עבור הרגרסיה הלוגיסטית: